七年前革命性论文共同作者Jones宣布:AI难有突破
说清楚他是谁——他是那篇把注意力机制推到风口浪尖的论文《Attention Is All You Need》的共同作者之一,也是把“Transformer”这个名字带入圈子的人。那篇文章发布于2017年,从那以后这套架构成了很多大模型的基础,像ChatGPT、
模型 论文 风投 transformer jones 2025-10-27 12:12 6
说清楚他是谁——他是那篇把注意力机制推到风口浪尖的论文《Attention Is All You Need》的共同作者之一,也是把“Transformer”这个名字带入圈子的人。那篇文章发布于2017年,从那以后这套架构成了很多大模型的基础,像ChatGPT、
模型 论文 风投 transformer jones 2025-10-27 12:12 6
颠覆性论文《Attention is all you need》的作者之一,现任 Sakana AI CTO 的 Llion Jones 在近日的 TED AI 大会上表示他已经厌倦了 Transformer。
transformer l jones llionjones 2025-10-27 10:53 8
在ICFP 2025编程大赛中,日本Sakana AI的「Team Unagi」以人机共创模式夺冠。其AI系统「ShinkaEvolve」通过迭代优化让代码性能提升近十倍,并反向启发人类思维。Sakana AI以自然进化为理念,正开创AI自我进化与人机协作的新
日本 编程 transformer cto 进化算法 2025-10-25 14:41 6
颠覆性论文《Attention is all you need》的作者之一,现任 Sakana AI CTO 的 Llion Jones 在近日的 TED AI 大会上表示他已经厌倦了 Transformer。
transformer l jones llionjones 2025-10-25 11:20 7
深度学习领域正迎来一次可能改变游戏规则的理论突破。浙江大学和新加坡国立大学的研究团队近日提出了名为"Translution"的全新神经网络基础操作,成功实现了自注意力机制与卷积操作的有机统一,为解决当前大模型发展瓶颈提供了全新思路。这项发表在最新研究论文中的成
transformer tra 卷积 translution 2025-10-23 19:02 8
世界模型本质就是一种视频生成技术,当然它也可以用模拟器仿真测试。世界模型可以生成长尾训练视频,也可以直接用于自动驾驶。目前90%的世界模型都是用来生成训练视频的,摆脱对真实数据集的依赖。自动驾驶的生成模型必须准确地模拟多种因素,例如自车 (ego-vehicl
模型 模态 transformer fid fvd 2025-10-20 23:39 6
今天通过逐帧分析6个大厂JD,看看Transformer到底要学到什么程度?按照JD技术要求,我们把Transformer的掌握程度分成4个门槛。
模型 transformer 工程师 薪资 vit 2025-10-17 17:30 8
针对视觉 Transformer(ViT)因其固有 “低通滤波” 特性导致深度网络中细节信息丢失的问题,我们提出了一种即插即用、受电路理论启发的 频率动态注意力调制(FDAM)模块。它通过巧妙地 “反转” 注意力以生成高频补偿,并对特征频谱进行动态缩放,最终在
transformer 电路 v 视觉transformer 2025-10-15 16:10 7
这种进步的关键,在于AI学会了联系上下文。比如这句话:“苹果公司推出了新手机,设计和芯片都很棒,它再次证明了领导地位。”我们一看就明白“它”指的是苹果公司。
聪明 transformer rnn 苹果公司 bert 2025-10-15 15:47 8
Transformer架构的计算复杂度和序列长度的二次方成正比。你要处理的文本长度增加一倍,计算量就要翻四倍。同时,它的内存占用也随着序列长度线性增长。用它实现AGI,能源和算力需求不可想象。
transformer 王座 mamba mamba架构 架 2025-10-14 20:06 7
至今为止 Transformer 架构依然是 AI 模型的主流架构,自从其确立了统治地位后,号称 Transformer 杀手的各类改进工作就没有停止过。
transformer iclr transformer杀手 2025-10-14 18:29 10
最近那个Mamba-3刷屏了,但上来就说投ICLR 2026也太扯了,这是穿越了?
华人 transformer cmu cmu华人 首代 2025-10-14 17:55 9
当大家还在卷 100B、1000B 的时候,三星蒙特利尔研究院把“大模型”三个字直接拍扁——两层 Transformer、7.3×10⁷ 参数,循环 16 圈,就把 ARC-AGI-1 榜单拉到 45%,比 6710 亿参数的 DeepSeek-R1 高出近
模型 推理 transformer 工厂 trm 2025-10-13 08:10 7
这个国庆假期,Sora 2引爆了整个AI圈子。当地时间9月30日,OpenAI正式推出了视频生成大模型Sora 2,并同步推出社交应用。Sora 2是一个原生的视频和音频生成模型,与前一版本相比在物理上更准确、更逼真、更可控,并实现了同步生成音频和对话的能力。
视频 模型 openai transformer sora 2025-10-10 01:02 7
2008年1月1日凌晨1点59分,加利福尼亚州卡利帕特里亚发生了一次地震。你可能从未听说过这次地震;即使你当时住在卡利帕特里亚,也不会感觉到任何震动。这次地震的震级为-0.53级,产生的震动相当于一辆卡车经过时的震动。然而,这次地震值得注意,不是因为它强度大,
地震 transformer 眼镜 伯恩斯 p波 2025-10-11 17:10 7
作为卖家,您需要确保在欧盟市场销售的产品符合欧盟法规及协调标准的要求。本文根据EN 62115、EN71系列的协调标准,整理了儿童电动玩具的说明书部分内容示例,供卖家了解适用产品的说明书中需要注明的一些信息要求。本文的参考示例不构成该类商品说明书的详尽内容,请
儿童 transformer 欧盟 电动玩具 儿童电动玩具 2025-10-10 17:52 7
大型智能系统的发展速度之快,几乎让人难以跟上。新的架构和模型层出不穷,每一次迭代都可能重塑行业格局。OpenAI 刚刚发布的 Sora 2,就是这种快速演进的最新例证——它不仅展示了模型能力的提升,也折射出智能系统迭代之迅猛和复杂。
transformer kaiser 李建忠 lukasz 2025-10-10 20:34 7
如果说能源定义了工业文明的上限,那么算力就决定了智能时代的边界。过去70年,算力架构从冯·诺依曼模型出发,经历了三次革命:从单核指令流,到分布式集群,再到AI驱动的智能算力体系。
架构 transformer gpu 诺依曼 指令流 2025-10-10 02:35 9
昨日,以色列AI创企AI21 Labs开源轻量级推理模型Jamba Reasoning 3B。该模型有30亿个参数,可在包括手机、电脑在内的多种设备端运行,性能超过Qwen3-4B、Gemma 3-4B等业界顶尖模型。
智能体 开源 transformer qwen gemma 2025-10-09 18:40 10
2017年,Transformer架构的诞生彻底改变了深度学习领域,为当今大语言模型的蓬勃发展奠定了坚实基础。作为这一划时代论文的作者之一,Llion Jones如今带着他的初创公司Sakana AI再次带来突破性成果——开源框架ShinkaEvolve,为进
开源 transformer l transformer作者 2025-10-09 09:41 7